28 research outputs found

    A Telemedicine System for Hostile Environments

    Get PDF

    Quantitative assessment of 12-lead ECG synthesis using CAVIAR

    Full text link
    The objective of this study is to assess the performance of patient-specific segment-specific (PSSS) synthesis in QRST complexes using CAVIAR, a new method of the serial comparison for electrocardiograms and vectorcardiograms. A collection of 250 multi-lead recordings from the Common Standards for Quantitative Electrocardiography (CSE) diagnostic pilot study is employed. QRS and ST-T segments are independently synthesized using the PSSS algorithm so that the mean-squared error between the original and estimated waveforms is minimized. CAVIAR compares the recorded and synthesized QRS and ST-T segments and calculates the mean-quadratic deviation as a measure of error. The results of this study indicate that estimated QRS complexes are good representatives of their recorded counterparts, and the integrity of the spatial information is maintained by the PSSS synthesis process. Analysis of the ST-T segments suggests that the deviations between recorded and synthesized waveforms are considerably greater than those associated with the QRS complexes. The poorer performance of the ST-T segments is attributed to magnitude normalization of the spatial loops, low-voltage passages, and noise interference. Using the meanquadratic deviation and CAVIAR as methods of performance assessment, this study indicates that the PSSS-synthesis algorithm accurately maintains the signal information within the 12-lead electrocardiogram.Peer Reviewedhttp://deepblue.lib.umich.edu/bitstream/2027.42/30309/1/0000711.pd

    The history and challenges of SCP-ECG: the standard communication protocol for computer-assisted electrocardiography

    Get PDF
    Ever since the first publication of the standard communication protocol for computer-assisted electrocardiography (SCP-ECG), prENV 1064, in 1993, by the European Committee for Standardization (CEN), SCP-ECG has become a leading example in health informatics, enabling open, secure, and well-documented digital data exchange at a low cost, for quick and efficient cardiovascular disease detection and management. Based on the experiences gained, since the 1970s, in computerized electrocardiology, and on the results achieved by the pioneering, international cooperative research on common standards for quantitative electrocardiography (CSE), SCP-ECG was designed, from the beginning, to empower personalized medicine, thanks to serial ECG analysis. The fundamental concept behind SCP-ECG is to convey the necessary information for ECG re-analysis, serial comparison, and interpretation, and to structure the ECG data and metadata in sections that are mostly optional in order to fit all use cases. SCP-ECG is open to the storage of the ECG signal and ECG measurement data, whatever the ECG recording modality or computation method, and can store the over-reading trails and ECG annotations, as well as any computerized or medical interpretation reports. Only the encoding syntax and the semantics of the ECG descriptors and of the diagnosis codes are standardized. We present all of the landmarks in the development and publication of SCP-ECG, from the early 1990s to the 2009 International Organization for Standardization (ISO) SCP-ECG standards, including the latest version published by CEN in 2020, which now encompasses rest and stress ECGs, Holter recordings, and protocol-based trials

    PAIRSE: A Privacy-Preserving Service-Oriented Data Integration System

    Get PDF
    International audiencePrivacy is among the key challenges to data integration in many sectors, including healthcare, e-government, etc. The PAIRSE project aims at providing a flexible, looselycoupled and privacy-preserving data integration system in P2P environments. The project exploits recent Web standards and technologies such as Web services and ontologies to export data from autonomous data providers as reusable services, and proposes the use of service composition as a viable solution to answer data integration needs on the fly. The project proposed new composition algorithms and service/composition execution models that preserve privacy of data manipulated by services and compositions. The proposed integration system was demonstrated at EDBT 2013 and VLDB 2011

    False Alarm Reduction in Self-Care by Personalized Automatic Detection of ECG Electrode Cable Interchanges

    No full text
    Introduction. False alarm reduction is an important challenge in self-care, whereas one of the most important false alarm causes in the cardiology domain is electrodes misplacements in ECG recordings, the main investigations to perform for early and pervasive detection of cardiovascular diseases. In this context, we present and assess a new method for electrode reversals identification for Mason-Likar based 3D ECG recording systems which are especially convenient to use in self-care and allow to achieve, as previously reported, high computerized ischemia detection accuracy. Methods. We mathematically simulate the effect of the six pairwise reversals of the LA, RA, LL, and C2 electrodes on the three ECG leads I, II, and V2. Our approach then consists in performing serial comparisons of the newly recorded 3D ECG and of the six derived ECGs simulating an electrode reversal with a standard, 12-lead reference ECG by means of the CAVIAR software. We further use a scoring method to compare these analysis results and then apply a decision tree model to extract the most relevant measurements in a learning set of 121 patients recorded in ICU. Results. The comparison of the seven sets of serial analysis results from the learning set resulted in the determination of a composite criteria involving four measurements of spatial orientation changes of QRS and T and providing a reversal identification accuracy of 100%. Almost the same results, with 99.99% of sensitivity and 100% of specificity, were obtained in two test sets from 90 patients, composed of 2098 and 2036 representative ECG beats respectively recorded during PTCA balloon inflation, a procedure which mimics ischemia, and before PTCA for control. Conclusion. Personalized automatic detection of ECG electrode cable interchanges can reach almost the maximal accuracy of 100% in self-care, and can be performed in almost real time

    Conception de services personnalisés pour la capture ubiquitaire de signes vitaux en Santé

    No full text
    L'objectif de cette thèse est de concevoir une architecture de services Web pour la dé-termination automatique d un système de capteurs personnalisé, embarqué sous forme de vêtement intelligent dédié au self-care, afin de permettre à tout utilisateur profane d'enregistrer lui-même son propre électrocardiogramme (ECG), à tout moment et n importe où. Le défi principal réside dans l'orchestration intelligente et dynamique de services métiers en fonction du contexte, pour qu ils fournissent à l'utilisateur une solution personnalisée optimale tout en maîtrisant la complexité inhérente à la dépendance au contexte des interactions homme-machine, à l'extraction des connaissances des signes vitaux spécifiques à un sujet, et à l'automatisation de la reconfiguration des services. Une solution à ce défi est de créer une intelligence ambiante qui étend la notion d'informatique ubiquitaire et est capable d offrir à l instar d un expert du domaine, une assistance intelligente personnalisée à tout citoyen. Nous proposons une méthodologie de construction d'une architecture DM-SOA orientée-services, dirigée à la fois par les données et par des modèles, pour la production de services métiers intelligents et tenant compte du contexte. Cette architecture permet l automatisation d activités sophistiquées et personnalisées qu un expert mettrait en œuvre pour le traitement d un cas individuel, à partir de ses connaissances professionnelles. La solution proposée est basée sur une nouvelle approche de modélisation dynamique de processus métiers, et l implémentation de services reconfigurables automatiquement. Elle consiste à mettre en œuvre un environnement intelligent fondé sur une ontologie de processus métiers des concepts du domaine et de son contexte, et sur une base de règles pour l'orchestration contextuelle des services. Pour valider le bien-fondé de notre approche, nous avons proposé une ontologie pour l automatisation de processus d aide à la décision et nous l avons évaluée dans le domaine de la cardiologie, en l appliquant au problème de la sélection la plus adéquate possible d un système de positionnement d électrodes, spécifique à chaque individu, et capable de fournir un signal ECG de contenu diagnostique similaire à celui d'un ECG standard à 12 dérivations. Pour répondre aux besoins en situation de self-care tout en préservant la qualité diagnostique des signaux enregistrés à la demande, nous proposons la réalisation d un nouveau système prototype de capture ECG-3D à trois modalités. Ce prototype a été testé sur huit jeunes adultes volontaires sains (4 hommes et 4 femmes) présentant diverses caractéristiques morphologiques. L'intelligence ambiante est fournie par un ensemble de services de qualité professionnelle, prêts à l emploi par des utilisateurs profanes. Ces services peuvent être accessibles au travail, n importe où, via des moyens classiquement utilisés chaque jour, et fournissent une aide appropriée aux utilisateurs non-compétents.The aim of the thesis is to design a web services architecture that shall support the automatic determination of a personalised sensor-system, which is embedded in smart garments, and which shall be used in self-care in order to allow a profane user to record himself a personal electrocardiogram (ECG), at anytime and anywhere. The main challenge consists in the intelligent and dynamic orchestration of context-aware business services that supply the user with an optimal personalised solution, while mastering the system s complexity: context dependent user and system interactions, knowledge extraction from subject-specific vital signs, services reconfiguration automation. The solution to this challenge is to create an Ambient Intelligence which goes beyond Ubiquitous Computing and is capable to replace an expert by proposing an Intelligent Assistance to any citizen. We propose a methodology expressed in terms of Data and Model driven Service Oriented Architecture (DM-SOA), which provides a framework for the production of context-aware intelligent business services. This architecture supports the automation of sophisticated and personalised expert activities, which apply professional knowledge to process an individual case. The proposed solution is based on a new dynamic business process modelling approach and in its implementation via automatically reconfigurable services. It consists in setting-up an intelligent environment based on a business process ontology of context-aware concepts and on related context handling rules for services orchestration. A core-ontology has been designed to support the automation of expert activities related to decision-making. The soundness of the method and of the underlying decision-making techniques has been demonstrated in the cardiology domain for selecting the most adequate subject-specific sensor-system, characterised by its ability to yield for an ECG signal of similar diagnostic content than a standard 12-lead ECG. We propose the design of a new three modalities sensor-system prototype as a response to the need of sensor-systems used on demand in self-care situations and ensuring diagnostic quality signals recordings. This prototype has been tested on a set of healthy volunteers presenting various characteristics in age, sex and morphology. In this context, Ambient Intelligence is demonstrated as an ensemble of professional quality services ready to use by profane users. These services are accessible pervasively, trough the objects people work with / wear on / use each day, and provide an appropriate guidance to the non-competent users. Such an Ambient Intelligence approach strongly supports the vision of an Information Society which corresponds to the long-term goal of the EU Information Society Technologies Research Programme that aims to ease knowledge access. The future healthcare will benefit from this approach and will significantly improve patient care.VILLEURBANNE-DOC'INSA LYON (692662301) / SudocVILLEURBANNE-DOC'INSA-Bib. elec. (692669901) / SudocSudocFranceF

    Méthodologie pour la conception de systèmes d'information pervasifs (application à la pSanté)

    No full text
    Dans ce mémoire, nous présentons et analysons, dans un premier temps des scénarios pour la prise en charge médicale à distance. A partir de ces scénarios, nous proposons un méta-modèle pour l échange de messages au sein d un environnement pervasif qui se compose, d une part, d un modèle de représentation centrée macro-données qui prend en compte l hétérogénéité et la dynamicité structurelle, syntaxique et sémantique des données pour les présenter aux acteurs selon le contexte, et d autre part un modèle de communication qui décrit la connaissance des types d'échange entre les acteurs en fonction des ressources temporelles, humaines et matérielles dont disposent chacun des acteurs. Cette méthodologie nous a permis d implémenter plusieurs infrastructures capables de garantir, dans un délai raisonnable selon le besoin, la prise en charge par un expert des demandes d autres acteurs du système de santé en fournissant, en quasi temps réel, en tous lieux et en tous temps, des données exhaustives concernant le patient et nécessaires à l établissement d un diagnostic fiable.In this document, we present and analyze, initially scenarios for the telemedecine. From these scenarios, we propose a meta-model for the exchange of messages within a pervasif environment which is composed, on the one hand, of a model of centered representation macro-data which takes into account heterogeneity and the structural, syntactic dynamicity and semantics of data to present at the actors according to the context, and on the other hand a model of communication which describes the knowledge of the types of exchange between the actors according to the temporal resources, human and material available to each actor. This methodology allow to implement infrastructures able to guarantee, within a reasonable time according to the need, the catch of load by an expert of the requests of other actors of the system of health while providing, in quasi real time, all places and all times, of the data exhaustive concerning the patient and necessary to the establishment of a reliable diagnosis.VILLEURBANNE-DOC'INSA LYON (692662301) / SudocSudocFranceF

    Modèle d architecture personnalisable pour l optimisation de l accès à des ressources et services pervasifs (Application à la télémédecine)

    No full text
    Le développement et l usage croissants de systèmes pervasifs, dotés de fonctionnalités et de moyens de communication de plus en plus sophistiqués, offrent de fantastiques potentialités de services, en particulier pour l e-Santé et la télémédecine, au bénéfice de tout citoyen, patient ou professionnel de santé. L un des challenges sociétaux actuels est de permettre une meilleure exploitation des services disponibles pour l ensemble des acteurs impliqués dans un domaine donné. Mais la multiplicité des services offerts, la diversité fonctionnelle des systèmes, et l hétérogénéité des besoins nécessitent l élaboration de modèles de connaissances de ces services, des fonctions de ces systèmes et des besoins. En outre, l hétérogénéité des environnements informatiques distribués, la disponibilité et les capacités potentielles des diverses ressources humaines et matérielles (instrumentation, services, sources de données, etc.) requises par les différentes tâches et processus, la variété des services qui fournissent des données aux utilisateurs, et les conflits d interopérabilité entre schémas et sources de données sont autant de problématiques que nous avons à considérer au cours de nos travaux de recherche. Notre contribution vise à optimiser la qualité de services en environnement ambiant et à réaliser une exploitation intelligente de ressources ubiquitaires. Pour cela, nous proposons un méta-modèle de connaissances des principaux concepts à prendre en compte en environnement pervasif. Ce méta-modèle est basé sur des ontologies décrivant les différentes entités précitées dans un domaine donné ainsi que leurs relations. Puis, nous l avons formalisé en utilisant un langage standard de description des connaissances. A partir de ce modèle, nous proposons alors une nouvelle méthodologie de construction d un framework architectural, que nous avons appelé ONOF-PAS. ONOF-PAS est basé sur des modèles ontologiques, une base de règles, un moteur d inférence, et des composants orientés objet permettant la gestion des différentes tâches et le traitement des ressources. Il s agit d une architecture générique, applicable à différents domaines. ONOF-PAS a la capacité d effectuer un raisonnement à base de règles pour gérer les différents contextes d utilisation et aider à la prise de décision dans des environnements hétérogènes dynamiques, tout en tenant compte de la disponibilité et de la capacité des ressources humaines et matérielles requises par les diverses tâches et processus exécutés par des systèmes d information pervasifs. Enfin, nous avons instancié ONOF-PAS dans le domaine de la télémédecine pour traiter le scénario de l orientation des patients ou de personnes victimes de problèmes de santé en environnement hostile telles que la haute montagne ou des zones géographiquement isolées. Un prototype d implémentation de ces scénarios, appelé T-TROIE a été développé afin de valider le framework ONOF-PAS.The growing development and use of pervasive systems, equipped with increasingly sophisticated functionalities and communication means, offer fantastic potentialities of services, particularly in the eHealth and Telemedicine domains, for the benifit of each citizen, patient or healthcare professional. One of the current societal challenges is to enable a better exploitation of the available services for all actors involved in a given domain. Nevertheless, the multiplicity of the offered services, the systems functional variety, and the heterogeneity of the needs require the development of knowledge models of these services, systems functions, and needs. In addition, the distributed computing environments heterogeneity, the availability and potential capabilities of various human and material resources (devices, services, data sources, etc.) required by the different tasks and processes, the variety of services providing users with data, the interoperability conflicts between schemas and data sources are all issues that we have to consider in our research works. Our contribution aims to empower the intelligent exploitation of ubiquitous resources and to optimize the quality of service in ambient environment. For this, we propose a knowledge meta-model of the main concepts of a pervasive environment, such as Actor, Task, Resource, Object, Service, Location, Organization, etc. This knowledge meta-model is based on ontologies describing the different aforementioned entities from a given domain and their interrelationships. We have then formalized it by using a standard language for knowledge description. After that, we have designed an architectural framework called ONOF-PAS (ONtology Oriented Framework for Pervasive Applications and Services) mainly based on ontological models, a set of rules, an inference engine, and object oriented components for tasks management and resources processing. Being generic, extensible, and applicable in different domains, ONOF-PAS has the ability to perform rule-based reasoning to handle various contexts of use and enable decision making in dynamic and heterogeneous environments while taking into account the availability and capabilities of the human and material resources required by the multiples tasks and processes executed by pervasive systems. Finally, we have instantiated ONOF-PAS in the telemedicine domain to handle the scenario of the transfer of persons victim of health problems during their presence in hostile environments such as high mountains resorts or geographically isolated areas. A prototype implementing this scenario, called T-TROIE (Telemedicine Tasks and Resources Ontologies for Inimical Environments), has been developed to validate our approach and the proposed ONOF-PAS framework.VILLEURBANNE-DOC'INSA LYON (692662301) / SudocVILLEURBANNE-DOC'INSA-Bib. elec. (692669901) / SudocSudocFranceF

    XML and relational databases mediation automation

    No full text
    XML offre des moyens simples et flexibles pour l'échange de données entre applications et s'est rapidement imposé comme standard de fait pour l'échange de données entre les systèmes d'information. Par ailleurs, les bases de données relationnelles constituent aujourd hui encore la technologie la plus utilisée pour stocker les données, du fait notamment de leur capacité de mise à l échelle, de leur fiabilité et de leur performance. Combiner la souplesse du modèle XML pour l'échange de données et la performance du modèle relationnel pour l archivage et la recherche de données constitue de ce fait une problématique majeure. Cependant, l'automatisation des échanges de données entre les deux reste une tâche difficile. Dans cette thèse, nous présentons une nouvelle approche de médiation dans le but d automatiser l'échange de données entre des documents XML et des bases de données relationnelles de manière indépendante des schémas de représentation des données sources et cibles. Nous proposons tout d abord un modèle d architecture de médiation générique des échanges. Pour faciliter la configuration d interfaces spécifiques, notre architecture est basée sur le développement de composants génériques, adaptés à n'importe quelle source XML et n'importe quelle base de données relationnelle cible. Ces composants sont indépendants de tout domaine d'application, et ne seront personnalisés qu une seule fois pour chaque couple de formats de données sources et de stockage cible. Ainsi notre médiateur permettra la mise à jour automatique et cohérente de toute base de données relationnelle à partir de données XML. Il permettra aussi de récupérer automatiquement et efficacement les données d'une base de données relationnelle et de les publier dans des documents XML (ou messages) structurés selon le format d'échange demandé. La transformation en XML Schema d'un modèle relationnel constitue l un des éléments clé de notre médiateur. Nous proposons une méthodologie basée sur deux algorithmes successifs : l un de stratification des relations en différents niveaux en fonction des dépendances fonctionnelles existant entre les relations et les clés des relations, le deuxième de transformation automatique du modèle relationnel en XML Schema à partir de la définition d un ensemble de fragments types d encodage XML des relations, des attributs, des clés et des contraintes référentielles. La méthodologie proposée préserve les contraintes d'intégrité référentielles du schéma relationnel et élimine toute redondance des données. Elle a été conçue pour conserver la représentation hiérarchique des relations, ce qui est particulièrement important pour la génération de requêtes SQL correctes et la mise à jour cohérente des données. Notre approche a été appliquée et testée avec succès dans le domaine médical pour automatiser l échange de données entre une représentation XML du protocole de communication standard SCP-ECG, une norme ISO décrivant un format ouvert de représentation de bio-signaux et métadonnées associées, et un modèle relationnel européen de référence qui inclut notamment l archivage de ces données. L'automatisation de la médiation est particulièrement pertinente dans ce domaine où les électrocardiogrammes (ECG) constituent le principal moyen d investigation pour la détection des maladies cardio-vasculaires et doivent être échangés rapidement et de manière transparente entre les différents systèmes de santé, en particulier en cas d'urgence, sachant que le protocole SCP-ECG a de nombreuses implémentations puisque la plupart des sections et des champs de données sont optionnels.XML has rapidly emerged as a de facto standard for data exchange among modern information systems. It offers simple and flexible means to exchange data among applications. In the meanwhile, relational databases are still the most used data storage technology in almost all information systems because of their unique features of scalability, reliability and performance. Thus, a crucial issue in the data management is to bring together the flexibility of the XML model for data exchange and the performance of the relational model for data storage and retrieval. However, the automation of bi-directional data exchange between the two remains a challenging task. In this dissertation, we present a novel mediation approach to automate data exchange between XML and relational data sources independently of the adopted data structures in the two data models. We first propose a generic mediation framework for the data exchange between any XML document and any existing relational database. The architecture of our proposed framework is based on the development of generic components, which will ease the setup of specific interfaces adapted to any XML source and any target relational database. The mediator components are independent of any application domain, and need to be customized only once for each couple of source and target data storage formats. Hence, our mediator provides automatic and coherent updates of any relational database from any data embedded in XML documents. It also allows to retrieve data from any relational database and to publish them into XML documents (or messages) structured according to a requested interchange format. The transformation from a Relational Model to XML represents a main key component of the proposed mediator. Thus, we proposed a methodology and devised two algorithms to efficiently and automatically transform the relational schema of a relational database management system into an XML schema. Our transformation methodology preserves the integrity constraints of the relational schema and avoids any data redundancy. It has been designed in order to preserve the hierarchical representation of the relational schema, which is particularly important for the generation of correct SQL updates and queries in the proposed mediation framework. Another key component is the automation of the SQL generation. Therefore, we devised a generic methodology and algorithms to automate the SQL queries generation that are required to update or retrieve data to/from the relational databases. Our proposed framework has been successfully applied and tested in the healthcare domain between an XML representation of SCP-ECG, an open format ISO standard communications protocol embedding bio-signals and related metadata, and an European relational reference model including these data. The mediation automation is especially relevant in this field where electrocardiograms (ECG) are the main investigation for the detection of cardiovascular diseases, and need to be quickly and transparently exchanged between health systems, in particular emergency, whereas the SCP-ECG protocol has numerous legacy implementations since most of the sections and of the data fields are not mandatory.VILLEURBANNE-DOC'INSA LYON (692662301) / SudocSudocFranceF

    Improvement of the detection of myocardial ischemia thanks to information technologies

    No full text
    Background: The standard 12-lead ECG remains one of the basic investigations for the early detection and assessment of acute coronary syndromes. It is easy to perform, anywhere and anytime, and can be digitally transmitted within minutes to an emergency medical service for remote advice and triage. But the conventional ST-segment deviation criteria are of limited diagnostic accuracy. The purpose of this study is to investigate how much the use of computerized ECG techniques based on the measurement of the serial spatiotemporal ECG changes could improve the detection accuracy of transmural myocardial ischemia. Methods: We considered the serial changes of continuous 12-lead ECGs of 90 patients undergoing elective percutaneous coronary angioplasty (PTCA) recorded during balloon inflation as an experimental model of ECG changes induced by coronary artery occlusion. The spatiotemporal ECG changes were measured according to the CAVIAR method and assessed by multivariate discriminant analysis in reference to serial changes of control recordings and standard ECG criteria. Results: The diagnostic accuracy of the CAVIAR criteria for ischemia detection was 97%, with sensitivity of 98% and specificity of 96%, whereas the diagnostic accuracy of the conventional ST-segment criteria was 74%, with sensitivity of 60% and specificity of 88%. The increase of overall performance was obtained for all the occlusion locations. Conclusions: Computer-assisted quantitative serial ECG analysis, taking into account the spatiotemporal changes of the QRS and T waves, would provide the physician with additional information for significantly improving the detection of transmural myocardial ischemia. (C) 2006 Elsevier Ireland Ltd. All rights reserved
    corecore